本章节内容为可选阅读,仅供参考。由于不同的硬件配置与部署环境可能存在差异,实际问题也会有所不同。建议按照本文环境及操作步骤执行,如遇异常可随时向 AI 寻求帮助,或咨询 vLLM 官方,PIG AI 无法提供支持。
请确保你的设备满足以下最低配置:
如果你不确定 CUDA 是否已正确安装,可运行 nvcc --version 查看版本。
打开终端,依次执行以下命令:
建议将 export HF_ENDPOINT=https://hf-mirror.com 添加到 ~/.bashrc 文件中,避免每次重启终端后重新设置。
在激活的 vllm-fix 环境中,运行以下命令启动模型服务:
此命令会自动从 HF-Mirror 下载模型(首次运行较慢,请耐心等待)。
服务默认监听 http://localhost:8000,可通过 --port 参数修改端口。
deepseek-ai/DeepSeek-OCRhttp://localhost:8000/v1)
DeepSeek-OCR 本身 不输出结构化 JSON,仅提供原始文本识别结果。 若需结构化输出(如字段提取、表格解析),需配合其他模型或后处理模块使用。
